近年来,深度学习(DL)算法的使用改善了基于视觉的空间应用的性能。但是,生成大量的注释数据来培训这些DL算法已被证明具有挑战性。虽然可以使用合成生成的图像,但在实际环境中测试时,经过合成数据训练的DL模型通常容易受到性能降解。在这种情况下,卢森堡大学的安全,可靠性和信任(SNT)跨学科中心开发了“ SNT Zero-G Lab”,用于在模拟现实世界太空环境的条件下培训和验证基于视觉的空间算法。 SNT Zero-G实验室开发的一个重要方面是设备选择。从实验室开发过程中学到的经验教训,本文提出了一种系统的方法,将市场调查和设备选择的实验分析结合在一起。特别是,本文专注于太空实验室中的图像采集设备:背景材料,相机和照明灯。实验分析的结果表明,在太空实验室开发项目中选择有效的设备选择需要通过实验分析来称赞的市场调查。
translated by 谷歌翻译
现代视频游戏的规模和规模迅速增长,为了创造丰富而有趣的环境,需要大量内容。结果,通常使用数千个详细的3D资产来创建一个场景。由于每个资产的多边形网格可以包含数百万个多边形,因此需要绘制的多边形数量可能超过数十亿。因此,计算资源通常会限制场景中可以显示多少详细对象。为了推动此限制并优化性能,可以在可能的情况下减少资产的多边形计数。基本上,这个想法是,距捕获相机距离更远的对象,因此屏幕尺寸相对较小,其多边形计数可能会降低而不会影响感知的质量。细节级别(LOD)是指3D模型表示的复杂性水平。消除复杂性的过程通常称为减少LOD,可以使用算法或由艺术家手动自动完成。但是,如果不同的LOD显着差异,或者如果LOD降低过渡不是无缝的,则此过程可能导致视觉质量恶化。如今,这些结果的验证主要是手动要求专家在视觉上检查结果。但是,此过程是缓慢的,平凡的,因此容易出错。本文中,我们提出了一种根据深度卷积网络的使用来自动化此过程的方法。我们报告有希望的结果,并设想该方法可用于自动化LOD减少测试和验证过程。
translated by 谷歌翻译
在现实世界设置下自动发现视觉模型中的故障仍然是一个开放的挑战。这项工作说明了如何利用大量数据培训的现成,大规模,图像到文本和文本对象模型如何自动找到此类故障。本质上,有条件的文本到图像生成模型用于生成大量的合成,但现实的输入,给定了地面真相标签。错误分类的输入是聚类的,并使用字幕模型来描述每个群集。每个集群的描述依次使用来生成更多的输入,并评估特定簇是否会导致比预期更多的故障。我们使用该管道来证明我们可以有效地询问在Imagenet上训练的分类器以找到特定的故障案例并发现虚假相关性。我们还表明,我们可以扩展针对特定分类器体系结构的对抗数据集的方法。这项工作是概念验证,证明了大规模生成模型的实用性,以开放式方式自动发现视觉模型中的错误。我们还描述了与这种方法相关的许多局限性和陷阱。
translated by 谷歌翻译
随着行业4.0系统的不断增长的复杂性,开发出旨在改善能源可持续性的植物能源管理系统变得同样复杂。基于基于模型的系统工程分析,本文旨在提供一种通用方法,以对制造业的自主能源管理系统进行整体开发。该能源管理系统(EMS)将能够不断提高其评估,预测和行动的能力,以通过监视和控制制造系统的能源可持续性来改善。该方法是通过系统建模语言(SYSML)实现的。
translated by 谷歌翻译
我们介绍了MLPERF小型推理基准(FPGA)平台上MLPERF微小的推理基准的最新结果。我们使用开源HLS4ML和Finn工作流,旨在使FPGA中优化神经网络的AI硬件代码民主化。我们介绍关键字发现,异常检测和图像分类基准任务的设计和实现过程。最终的硬件实现是针对速度和效率量身定制的,可配置的,可配置的空间数据流体系结构,并引入了新的通用优化和作为本工作的一部分开发的常见工作流程。完整的工作流程从量化感知培训到FPGA实施。该解决方案部署在芯片(PYNQ-Z2)和纯FPGA(ARTY A7-100T)平台上。由此产生的提交的潜伏期低至20 $ \ mu $ s和每次推论的低至30 $ \ mu $ j的能耗。我们展示了异质硬件平台上新兴的ML基准如何催化协作和开发新技术和更容易访问的工具。
translated by 谷歌翻译
本文调查了美国境内自动驾驶汽车进行的最后一英里交付的最终用户接受。总共向296名参与者介绍了有关该技术的信息,然后要求填写有关他们的看法的调查表,以评估他们有关接受的行为意图。采用了部分最小二乘风味(PLS-SEM)的结构方程模型来分析收集的数据。结果表明,该技术的有用性在最终用户接受决策中起着最大作用,随后是他人的影响,然后通过与技术互动而获得的享受。此外,对使用自动递送工具进行最后一英里交付的风险的看法导致接受程度减少。但是,大多数参与者并未认为使用该技术具有风险。本文总结了我们的发现对各个利益相关者的影响,并提出了这一研究领域的下一步。
translated by 谷歌翻译
由于神经网络变得更加强大,因此在现实世界中部署它们的愿望是一个上升的愿望;然而,神经网络的功率和准确性主要是由于它们的深度和复杂性,使得它们难以部署,尤其是在资源受限的设备中。最近出现了神经网络量化,以满足这种需求通过降低网络的精度来降低神经网络的大小和复杂性。具有较小和更简单的网络,可以在目标硬件的约束中运行神经网络。本文调查了在过去十年中开发的许多神经网络量化技术。基于该调查和神经网络量化技术的比较,我们提出了该地区的未来研究方向。
translated by 谷歌翻译
现代信息和通信技术实践提出了对隐私的新威胁。我们专注于当前数据保护规范的一些缺点,可以充分解决AI驱动数据处理实践的后果,特别是组合数据集的影响。我们建议隐私监管依赖于个人的隐私预期,并建议在两个方向上建议监管改革:(1)为了引发数据保护法的应用和(2)制定方法优先考虑个人和匿名数据之间的区分基于各个数据处理行动提出的隐私风险水平的监管干预。这是一个跨学科论文,打算在涉及涉及隐私研究的各个社区之间建立一座桥梁。我们特别强调将技术概念与其监管影响联系起来,并介绍了相关的技术和法律术语,以促进政策制定和技术社区之间更有效的协调,并及时解决提出的问题。
translated by 谷歌翻译
\ EMPH {人工智能}(AI)系统越来越多地参与影响我们生活的决策,确保自动决策是公平的,道德已经成为最优先事项。直观地,我们觉得类似人的决定,人工代理人的判断应该必然地以一些道德原则为基础。然而,如果有关决定所基础的所有有关因素的全部信息,可以真正伦理(人类或人为)和公平(根据任何道德理论)和公平(根据公平的任何概念)的规定在决策时。这提出了两个问题:(1)在设置中,我们依赖使用通过监督学习获得的分类器的AI系统,存在一些感应/泛化,即使在学习期间也可能不存在一些相关属性。 (2)根据游戏揭示任何 - 无论是道德的纯策略都不可避免地易于剥削,建模这些决定。此外,在许多游戏中,只能通过使用混合策略来获得纳什均衡,即实现数学上最佳结果,决定必须随机化。在本文中,我们认为,在监督学习设置中,存在至少以及确定性分类器的随机分类器,因此在许多情况下可能是最佳选择。我们支持我们的理论效果,具有一个实证研究,表明对随机人工决策者的积极社会态度,并讨论了与使用与当前的AI政策和标准化举措相关的随机分类器相关的一些政策和实施问题。
translated by 谷歌翻译
对抗性训练遭受了稳健的过度装备,这是一种现象,在训练期间鲁棒测试精度开始减少。在本文中,我们专注于通过使用常见的数据增强方案来减少强大的过度装备。我们证明,与先前的发现相反,当与模型重量平均结合时,数据增强可以显着提高鲁棒精度。此外,我们比较各种增强技术,并观察到空间组合技术适用于对抗性培训。最后,我们评估了我们在Cifar-10上的方法,而不是$ \ ell_ indty $和$ \ ell_2 $ norm-indeded扰动分别为尺寸$ \ epsilon = 8/255 $和$ \ epsilon = 128/255 $。与以前的最先进的方法相比,我们表现出+ 2.93%的绝对改善+ 2.93%,+ 2.16%。特别是,反对$ \ ell_ infty $ norm-indeded扰动尺寸$ \ epsilon = 8/255 $,我们的模型达到60.07%的强劲准确性而不使用任何外部数据。我们还通过这种方法实现了显着的性能提升,同时使用其他架构和数据集如CiFar-100,SVHN和TinyimageNet。
translated by 谷歌翻译